Stable Diffusion génère de la vidéo à partir de quelques mots


Stable Diffusion, le modèle open source de génération de contenus, se met à la vidéo. Une première version destinée aux chercheurs est disponible, avant un déploiement plus large auprès du grand public.

Les intelligences artificielles génératives savent créer des images, du texte ou encore de la musique à partir de quelques mots. Stable Diffusion ajoute une corde à son arc : la vidéo ! Il suffit de décrire ce que l’on veut voir bouger, et le modèle se charge de générer une vidéo.

Le prochain blockbuster sera-t-il conçu par Stable Diffusion ?

Ce premier modèle pour la vidéo générative est basé sur le modèle d’image de Stable Diffusion, qui permet de créer des illustrations dans différents styles, des logos, des affiches, des images, des fictions, du code… Stable Video Diffusion s’adapte à de nombreuses situations, comme la création de plusieurs vues d’un même sujet à partir d’une seule image.

Stable Diffusion Video est capable de générer 14 et 25 images par vidéo, avec des taux de rafraîchissement personnalisées (entre 3 et 30 images par seconde).

Les chercheurs peuvent d’ores et déjà avoir un aperçu de cette nouveauté, tandis que le code est disponible sur GitHub. Stable Diffusion partage également un article de recherche détaillant le fonctionnement de ce modèle. Le grand public et les curieux ont la possibilité de s’inscrire à une liste de diffusion pour accéder à la future interface web. Les débouchés sont multiples : éducation, divertissement, publicité…

Contrairement à d’autres modèles comme Dall-E ou Midjourney, Stable Diffusion est plus accessible en raison de son caractère open source. En revanche, la qualité des visuels produits est variable, et l’exploitation des contenus générés par le modèle peut poser des problèmes avec le droit d’auteur.

Source : Stable Diffusion



Source
Catégorie article Produits

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.